花费 32 ms
tensorflow中使用Batch Normalization

在深度学习中为了提高训练速度,经常会使用一些正正则化方法,如L2、dropout,后来Sergey Ioffe 等人提出Batch Normalization方法,可以防止数据分布的变化,影响神经网络 ...

Sat May 05 20:37:00 CST 2018 0 2355

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM